iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 24
0
Mobile Development

顏色 countenance APP製作筆記系列 第 24

[Day 24] 利用ARkit抓取臉部資料

  • 分享至 

  • xImage
  •  

開始制作CreateML模型判斷情緒之前,先讓我們來認識用來抓取臉部資料的ARkit吧!這小小的工具可說是成就顏色APP的一大功臣呢!但在開發時,也有些限制要注意喔!

功能與限制

首先,什麼是ARkit呢?這是為了讓開發者在iOS裝置上得以建立一個AR app,在iOS11系統上,導入的系統框架。於Xcode11(含)以上的版本,皆可直接使用ARKit進行開發。

要注意在Xcode上使用ARKit開發時,無法使用內建的模擬器測試。必須使用具有A9處理器(或以上)的裝置才能正常運行,以下為可使用的裝置:

  1. iPhone 6s, 6s Plus, 7, 7 Plus, 8, 8 Plus, iPhoneX/XS/Xr與iPhone11/11 Pro/11 Pro Max
  2. iPad Pro, iPad mini(第5代), iPad Air(第3代)與iPad(第5代)
  3. iPhone SE

ARkit具有眾多功能可供使用,其中臉部追蹤功能(ARFaceTrackingConfiguration)與原深感測鏡頭(True Depth Camera)即可辨識臉部五官的位置。而因爲需要具備原深感測鏡頭,故並非所有裝置都可以使用,需要iPhone X(含)以上的裝置才可以使用。

程式撰寫

  1. 在main.storyboard中新增一個ARKit SceneKit View,並為其設定大小,在這個視窗我們可以看到前鏡頭照射到的影像。而程式的部分則需要import ARKit。
    https://ithelp.ithome.com.tw/upload/images/20201007/20130458cVN7IjKHV6.png

  2. 加入臉部偵測功能的程式碼即可偵測臉部位置。搭配前面提到的用ARFaceAnchor判斷表情(上)用ARFaceAnchor判斷表情(下)便可即時判斷五官表情。
    https://ithelp.ithome.com.tw/upload/images/20201007/20130458Rc5jUohc9Z.png

進行開發時,ARKit的測試限制一定要注意,否則就會一直無法順利執行喔!


上一篇
[Day 23] 用Charts製作圖表
下一篇
[Day 25] CoreML介紹
系列文
顏色 countenance APP製作筆記30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言